FILTER MODE ACTIVE

#обучение LLM

Найдено записей: 11

#обучение LLM23.06.2025

Reinforcement-Learned Teachers от Sakana AI: Революция в эффективном обучении рассуждению LLM

Sakana AI представляет Reinforcement-Learned Teachers (RLTs) — новый подход, который обучает небольшие модели эффективно преподавать рассуждение большим языковым моделям через RL, ориентированное на создание пошаговых объяснений.

#обучение LLM18.06.2025

AREAL: Революция в обучении больших моделей рассуждений с полностью асинхронным усиленным обучением

AREAL — новая асинхронная система усиленного обучения, которая значительно ускоряет обучение больших моделей рассуждений, разделяя процессы генерации и обучения и достигая до 2.77× быстрейшего обучения без потери точности.

#обучение LLM10.06.2025

Meta представляет LlamaRL: масштабируемый фреймворк RL на PyTorch для эффективного обучения больших языковых моделей

Meta представила LlamaRL — инновационный масштабируемый асинхронный RL-фреймворк на PyTorch, который значительно ускоряет обучение больших языковых моделей при оптимальном использовании ресурсов.

#обучение LLM03.06.2025

Лаборатория Shanghai AI Предлагает Энтропийные Законы Масштабирования для Решения Проблемы Коллапса Исследования в RL для LLM

Исследователи из Shanghai AI Laboratory предложили энтропийные законы масштабирования и новые методы для преодоления коллапса исследования в обучении с подкреплением больших языковых моделей, достигнув заметного улучшения результатов.

#обучение LLM20.05.2025

Эффективное дообучение Qwen3-14B на Google Colab с Unsloth AI и оптимизацией LoRA

В этом руководстве показано, как эффективно дообучить модель Qwen3-14B на Google Colab с помощью Unsloth AI, используя 4-битную квантзацию и LoRA для экономии памяти при обучении на смешанных наборах данных.

#обучение LLM15.05.2025

Ultra-FineWeb: Триллионный датасет, улучшающий точность LLM на нескольких языках

Университет Цинхуа и ModelBest представили Ultra-FineWeb — триллионный многоязычный датасет, значительно повышающий точность крупных языковых моделей благодаря инновационной фильтрации данных.

#обучение LLM09.05.2025

«Абсолютный ноль» от Университета Цинхуа: обучение ИИ без внешних данных

Исследователи Университета Цинхуа создали парадигму Absolute Zero для обучения больших языковых моделей без внешних данных с помощью системы самосовершенствования на основе кодового исполнителя.